14 - Rechnerarchitektur [ID:10882]
50 von 1089 angezeigt

Also dann, willkommen heute mal in einer anderen Umgebung, die eigentlich viel schöner ist, oder?

Jetzt, wo mal heute die Sonne scheint, zur letzten Vorlesung lassen wir nochmal richtig die Sonnenstrahlen rein.

Gut, wir haben uns ja im Kapitel 3 immer noch mit den eingebetteten Systemen beschäftigt, eingebetteten Prozessoren.

Und ich bin auf das Beispiel eingegangen beim autonomen Fahren, habe also erstmal ein paar Dinge allgemein erklärt, was beim autonomen Fahren da so wichtig ist.

Das sind also diese drei Dinge.

Ach ne, bitte nicht, ich habe mich die ganze Zeit angelassen.

Also, das Aufnehmen von Daten mit Sensoren, dann die Wahrnehmung und dann die Entscheidungsfindung.

Und ja, speziell zwei Beispiele, ein Beispiel hatte ich hier etwas ausführlicher gezeigt, das war die Objekterkennung, und zwar von Fußgängern.

Also nicht von spezifischen Fussgängern, sondern von Fussgängern allgemein.

Das haben wir uns ja angeguckt mit dem Hock.

Und da kommt jetzt nochmal ein Beispiel, was man auch machen kann.

Zum Beispiel gehört auch das Erarbeiten von Auswerten von Radar-Daten.

Das machen wir jetzt nochmal kurz.

Das hat man schon gemacht.

Den Hock haben wir uns ja ausführlich angeguckt.

Am Ende klassifiziert man das Ganze mit einer Support Vector Maschine.

Das hatte ich Ihnen auch noch gesagt.

Also letztendlich läuft das Ganze darauf hinaus, dass man dann einen Vector bekommt

bei diesem Hockverfahren mit 36 Dimensionen.

Der Hock hat nur bestimmte Eigenschaften, wenn er etwas detektiert hat,

wo es um einen Gegenstand ging, in dem Fall eine Person, die aufrecht steht.

Das haben wir dann auch erweitert, auch Fahrzeughecks.

Damit habe ich dann aufgehört.

Nun ist es so, mit einer optischen Kamera kann man natürlich viele Dinge erfassen.

Hier ist noch etwas frei.

Man kann also diese Person direktieren, aber man hat natürlich nicht immer so einen schönen Tag wie heute,

dass deine Kamera wunderbar funktioniert, sondern ich fahre zum Beispiel durch einen Tunnel oder so etwas

und dann klappt das eben nicht mehr. Dann bin ich etwas eingeschränkt.

Und all diese Sensoren, die man da braucht für dieses autonome Fahren, der LIDAR, der Radar, die Optik,

die haben alle ihre Vor- und Nachteile und man möchte die Vorteile der Einzelnen,

der einen Vorteil oder der anderen Nachteil, und ich möchte die Vorteile irgendwie miteinander kombinieren.

Und eine andere Möglichkeit, das zu tun, um Objekte zumindest zu erkennen, da ist irgendetwas,

was einem vorausfährt oder was dann unmittelbar umgeben ist, ist der Radar.

Und auch da geben sich dann entsprechende Anforderungen fürs autonome Fahren.

Und man macht das wie folgt, also dass man über eine bestimmte Zeit so eine Frequenzrampe hier startet.

Das ist dieses FMC-V, also das ist mehr oder weniger Frequency Mode Current.

Also ich verändere die Continuous Wave, ich verändere die Frequenz über einen bestimmten Zeitraum.

Und zwar hier kontinuierlich. Und dann werde ich eben das Signal, das zurückkommt, aus.

Und wie macht man das Ganze?

Kurz zeige ich das Ihnen mal nur, ein bisschen ausfülle ich es in der C2, weil es da ganz gut passt.

Und zwar, genau, ja man weiß jetzt natürlich, hier ist noch etwas frei,

ich müsste leider hier raufgehen in der BIMA-Runden nicht gewollt.

Und nebenan war auch der Raum belegt.

Ja, man weiß ja, also so ein Signal, das ich los schicke, das breitet sich dann mit Lichtgeschwindigkeit aus,

elektromagnetische Welle, mehr oder weniger im freien Raum.

Und R ist die Entfernung. Also das R durch C, die Zeit, die das braucht,

um mit Lichtgeschwindigkeit eine Entfernung von R zurückzulegen.

Da muss ich hin und zurück laufen, also kommt der Faktor 2 dazu.

Und jetzt kommt noch eine Besonderheit, die ich hier auswerten kann, das leite ich jetzt hier nicht geometrisch her.

Dann sehe ich nochmal hier diesen Zacken.

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:47:27 Min

Aufnahmedatum

2018-02-05

Hochgeladen am

2019-05-01 08:09:02

Sprache

de-DE

Die Vorlesung baut auf die in den Grundlagen der Rechnerarchitektur und -organisation vermittelten Inhalte auf und setzt diese mit weiterführenden Themen fort. Es werden zunächst grundlegende fortgeschrittene Techniken bei Pipelineverarbeitung und Cachezugriffen in modernen Prozessoren und Parallelrechnern behandelt. Ferner wird die Architektur von Spezialprozessoren, z.B. DSPs und Embedded Prozessoren behandelt. Es wird aufgezeigt, wie diese Techniken in konkreten Architekturen (Intel Nehalem, GPGPU, Cell BE, TMS320 DSP, Embedded Prozessor ZPU) verwendet werden. Zur Vorlesung werden eine Tafel- und eine Rechnerübung angeboten, durch deren erfolgreiche Beteiligung abgestuft mit der Vorlesung 5 bzw. 7,5 ECTS erworben werden können. In den Tafelübungen werden die in der Vorlesung vermittelten Techniken durch zu lösende Aufgaben vertieft. In der Rechnerübung soll u.a. ein einfacher Vielkern-Prozessor auf Basis des ZPU-Prozessors mit Simulationswerkzeugen aufgebaut werden. Im Einzelnen werden folgende Themen behandelt:
  • Organisationsaspekte von CISC und RISC-Prozessoren

  • Behandlung von Hazards in Pipelines

  • Fortgeschrittene Techniken der dynamischen Sprungvorhersage

  • Fortgeschritten Cachetechniken, Cache-Kohärenz

  • Ausnutzen von Cacheeffekten

  • Architekturen von Digitalen Signalprozessoren

  • Architekturen homogener und heterogener Multikern-Prozessoren (Intel Corei7, Nvidia GPUs, Cell BE)

  • Architektur von Parallelrechnern (Clusterrechner, Superrechner)

  • Effiziente Hardware-nahe Programmierung von Mulitkern-Prozessoren (OpenMP, SSE, CUDA, OpenCL)

  • Leistungsmodellierung und -analyse von Multikern-Prozessoren (Roofline-Modell)

Empfohlene Literatur
  • Patterson/Hennessy: Computer Organization und Design
  • Hennessy/Patterson: Computer Architecture - A Quantitative Approach

  • Stallings: Computer Organization and Architecture

  • Märtin: Rechnerarchitekturen

Einbetten
Wordpress FAU Plugin
iFrame
Teilen